查看原文
其他

基于YOWO的课堂学习行为实时识别

MOOC 2022-08-23

The following article is from 现代教育技术杂志 Author 谢伟 陶亚平 等


本文由《现代教育技术》授权发布

者:谢伟 陶亚平 高洁 周东波 王溦

摘要

当前,课堂学习行为研究一般仅针对单帧图像分析学生的行为,而忽视了行为的连续性,无法利用视频信息准确刻画学生的课堂学习行为。为了解决这一问题,文章实时识别真实课堂环境中学生的学习行为,首先采集某重点大学多个真实课堂教学中的授课视频,归纳出7种典型的课堂行为;随后,将行为识别中的YOWO模型迁移至课堂学生的学习行为识别场景中;最后,通过与基于图片数据集的VGG16网络模型、基于视频数据集的YOLO-V2网络模型进行实验对比,验证了YOWO模型对课堂视频中的学生学习行为具有较高的行为识别准确率。上述研究表明,使用YOWO模型识别课堂中典型的学生行为,可以促进教师及时了解学生的学习状态,进而优化教学过程,并能为课堂教学的过程化评价提供依据。


关键词:学习行为;行为识别;视频分析;深度学习;YOWO模型



人工智能助推教育信息化不断发展,科大讯飞轮值总裁吴晓如曾说:“人工智能将教学变为大数据分析以及人工智能辅助的以学生为中心的个性化学习,为每个学生提供个性化、定制化的学习内容和方法,从而激发学生深层次的学习欲望。而且,在教育资源均衡化方面,人工智能也可以发挥很大的作用,可以有效解决以前远程教学中师生不能进行有效互动和教师不了解学情的问题。”[1]在此背景下,智慧教室开始逐渐被广泛应用。课堂教学视频中包含丰富的教学信息,故可利用智慧教室中的摄像头获取完整的授课视频信息。以往的分析课堂教学信息大多来源于相关专业人员观察录制的授课视频和手动记录相应的学生表现,这种方式的效率较低。因此,如何有效、实时地自动识别授课视频中学生的课堂动作信息,进而分析其学习行为,最终改善教与学的互动关系,是当前教育中亟待解决的问题。然而,目前的学生课堂行为识别研究大多基于单帧图像识别学生行为,忽略了行为的时序性。YOWO(You Only Watch One)网络模型可以利用学生行为的时序特征[2],自动实时地识别学生课堂行为,并通过检测框观察学生所在的空间位置。因此,本研究基于YOWO网络模型,通过检测视频中学生行为的时序性识别学生课堂行为,一方面让教师了解学情,及时改进教学方法,优化教学过程;另一方面便于学生及时做出调整,提高学习效率,最终改善教与学的互动关系,助力智慧课堂的发展。



1

研究现状


基于YOWO的课堂学习行为实时识别


在以往的教学过程中,教师大多通过弗兰德斯互动分析系统(Flanders Interaction Analysis System,FIAS)[3]、基于信息技术的交互分析系统(improved Flanders Interaction Analysis System,iTIAS)[4]等方法分析学生的课堂行为,但是这些方法属于人工分析的范畴,耗时耗力,无法实现持续、大规模的测量。因此,一些学者针对如何自动化捕捉学生在课堂上的动作信息进而分析其学习行为展开了研究。如在国外,Zhang等[5]将YOLO算法应用于学生面部运动检测,预测学生是否参与课堂,在所构建的四个视频数据集中检测脸部后,成功识别出打哈欠、笑、闭眼、向左看、向右看五种常见面部运动,识别准确率最高达到95.46%。在国内,蒋沁沂等[6]基于残差网络,利用构建的课堂学习行为数据集,成功识别出上课、玩手机、记笔记、东张西望、看书、睡觉六种常见课堂行为,其平均识别率达到了91.91%;魏艳涛等[7]通过对VGG16网络进行迁移学习,利用构建的课堂学习行为数据集,识别出听课、看书、书写、站立、举手、睡觉、左顾右盼七种行为,其准确率为93.33%;何秀玲等[8]基于人体骨架模型,利用构建的课堂学习行为数据集,成功识别出东张西望、举手、听课、阅读、睡觉、起立、书写七种常见课堂学习行为,其平均识别率达到了97.92%;徐家臻等[9]基于人体骨架模型,利用构建的课堂学习行为数据集,成功识别出听讲、看书、站立、举手、写字五种常见课堂学习行为,并分别探讨了这些学习行为在GBDT模型、XGBoost模型、卷积神经网络中的VGG16和ResNet50、Inception-V3网络模型下的准确率,其中XGBoost模型的识别准确率最高,其平均准确率为85.49%。前文提到的研究者构建的课堂学习行为数据集都是图片数据集,但是图片数据集无法准确刻画学生的课堂行为,因此一些研究者从视频角度研究学生的课堂行为。例如,刘新运等[10]基于YOLO网络检测课堂学习行为,平均精准度为40.7%;谭斌等[11]通过Fast R-CNN网络检测课堂视频中学生的玩手机、睡觉、学习三种行为,平均精准度为54.6%;廖鹏等[12]用背景差分的方法提取目标区域数据,并将数据输入VGG网络模型中,成功识别出睡觉、玩手机、听讲三种常见的课堂行为,其平均识别率达到了85.28%。以上根据视频数据集分析学生课堂学习行为的研究成果虽然成功识别了学生的课堂行为,但依然都是针对单帧图像分析学生的学习行为,而忽略了视频中行为的时序性,没有利用行为的时序性准确刻画学生的课堂学习行为。


总的来说,目前课堂学习行为识别研究存在两个难点:①很难获取课堂中的学生学习行为数据,而在公开的行为识别数据集中恰好缺乏该类数据,在此需要研究人员专门采集课堂视频数据,并对视频依次进行筛选划分、视频分割和标注,这是一个十分耗时的工作;②学者研究的课堂学习行为识别,大部分是基于检测,仅关注空间信息(只考虑单帧图像就判断其行为属于某一类别),没有充分考虑学习行为具有时序性(很多行为由连续的多帧图像共同组成),不能很好地识别、分析学习行为。当然,空间信息可以识别部分课堂行为,如睡觉行为是学生趴在桌子上,全程不动或者身体变化幅度较小,对此研究人员只需考虑空间信息,因为单帧图像可以较好地描述该行为。但是,大部分行为不能仅依赖单帧图像进行描述,如学生从坐着到站立、从站立到坐下这两个行为在时间顺序上呈负相关,如果只考虑空间信息而忽略时序性,那么检测结果就是一个行为;可从时序角度考虑,这是两个截然相反的行为。为此,在进行课堂行为识别时,研究人员需要更多地考虑连续多帧图像,而不仅仅是单帧图像。本研究着重从视频数据集出发,应用结合行为时序性的YOWO网络模型来识别学生的课堂行为,且使用3D-CNN提取学生学习行为的时序特征、使用2D-CNN提取学生学习行为的空间特征,同时采用注意力机制融合时空特征,由边框盒回归输出所属类别、置信度和空间坐标信息。



2

基于YOWO实时识别课堂学习行为的框架


基于YOWO的课堂学习行为实时识别


1.YOWO的网络结构


YOWO模型由德国慕尼黑工业大学人机通信研究所提出,是目前流行的行为识别网络模型之一。对比双流[13]、多流[14][15]等行为识别网络模型,YOWO模型能较好地通过检测框观察目标的所在空间位置;对比光流模型[16],YOWO模型改用3D卷积提取时序特征,极大地减少了额外计算费用,且可以达到实时识别的效果。YOWO模型主要由2D-CNN分支、3D-CNN分支、通道融合、边框盒回归四部分组成,如图1所示。YOWO模型首先同时使用2D-CNN和3D-CNN提取时空特征,随后使用自注意力机制将所提取的时空特征进行通道融合,最后由边框盒回归并输出分类结果。


图1  YOWO模型的网络结构图


本研究采用2D-CNN分支提取空间特征时,通过Darknet-19网络模型分析学生行为的空间信息,并加强空间信息特征。在整个学习过程中,Darknet-19网络模型多次使用3×3、1×1两个滤波器,输入的初始特征大小为C×H×W(C表示通道数,这里为3;H、W分别为帧图像的高、宽,这里分别为224、224),通过由32、64、128、256、512、1024、425组成的多个卷积模块来提取特征,中间嵌有最大池化层、归一化操作BN与激活函数LeakyReLU。其中,最大池化层用来减少中间数据的空间信息;归一化操作BN可以减轻训练模型对参数初始化的依赖,提升训练速度,从而允许使用学习率较高的训练模型,并在一定程度上增加训练模型的泛化能力;在反向传播过程中,输入小于零的部分,激活函数LeakyReLU可以通过计算得到梯度ai,如公式(1)所示。在本次实验中,ai取值为0.1。



这里之所以采用3D-CNN分支,是因为视频流中行为的前后帧信息对该行为的识别具有关键作用。该分支通过3D-ResNext-101网络模型,在空间和时序上同时提取学习行为特征,从而加强对行为的捕获,用以分析学生行为的时序信息。在整个学习过程中,3D-ResNext-101多次使用7×7×7、1×1×1、3×3×3三个滤波器,输入的初始特征大小为C×T×H×W(C、H、W的含义与数值与在Darknet-19网络模型中相同;T表示连续的帧数,这里为16),通过由64、128、256、512、1024、2048组成的多个卷积模块来提取特征,中间嵌有最大池化层、归一化操作BN与激活函数ReLU。其中,最大池化层与归一化操作BN的作用与在Darknet-19网络模型中相似。激活函数ReLU在计算过程中收敛速度快、计算梯度时求解简单,如公式(2)所示。



本研究中的通道融合采用自注意力机制突出前后帧之间的关系,增强了特征的可分辨性。边框盒回归是参考YOLO的思想,在最后一层使用1×1卷积核产生目标通道数。最后,输出学生的坐标框信息、所属行为类别和置信度。


2.基于YOWO模型的学生课堂行为识别流程


本研究拟基于YOWO模型识别学生在课堂中的行为,其流程如图2所示,具体包括:①采集学生的学习行为数据,即利用智慧课堂中前、后七个摄像头,采集学生的实际课堂学习行为视频。②数据预处理。首先,进行数据筛选与视频分割,根据采集的课堂学习行为视频,将包含要研究的部分学习行为分割成短视频;然后,进行数据标注,将短视频转化成连续多帧的图像,对帧图像中的学习行为进行标注,并划分训练集、验证集和测试集。③加载COCO数据集上预训练的Darknet-19模型参数和Kinetics数据集上3D-ResNext-101模型参数,利用训练样本精调YOWO模型。④将测试样本输入精调后的YOWO模型中,输出测试的识别结果。


图2  基于YOWO模型的学生课堂行为识别流程



3

实验设计


基于YOWO的课堂学习行为实时识别


为了验证YOWO模型对学生课堂行为识别的有效性,本研究分别使用YOWO模型、基于图片数据集的VGG16网络模型(基于相关经典深度学习,方法类似)、基于视频数据集的YOLO-V2网络模型(识别速度更快,可以达到实时检测效果),在学生课堂行为视频数据集上进行实验对比。


1.学生课堂行为视频数据集的构建


由于目前国内没有公开的学生课堂行为数据集,故本研究以2020~2021年湖北省武汉市某重点大学真实课堂教学环节中的授课视频为原始数据,通过分析学生的课堂行为特点,归纳出7种具有代表性的学生课堂行为(即书写、站立、睡觉、听讲、翻书、玩手机、左顾右盼),构建相应的学生课堂行为视频数据集,每种行为的说明如表1所示。学习行为中的书写、站立、听讲、翻书表示学生上课的积极行为,而睡觉、玩手机、左顾右盼表示学生上课的消极行为,以比较全面地反映学生在课堂中的学习状态。


表1  学生课堂学习行为说明


本研究采集的原始数据是约6000分钟的上课视频,其中包含2门必修课、4门选修课,共计60个课堂场景。每个课堂场景为两节课,共计时90~100分钟。本研究采集的真实课堂场景是设有七个摄像头的智慧课堂,摄像头分布在教室的前、后(教室前方有4个、后方有3个),如图3所示。由于实验需要识别学生的课堂行为,因此实验数据均为上课学生的正面信息,但是会存在学习行为部分遮挡的特点,如图3(c)所示。


图3  已标注的学生7种典型课堂行为


本研究对采集的视频依次进行了以下处理:①筛选与裁剪分割。首先,对采集的全过程长视频进行筛选;随后,选取视频中包含七大典型课堂行为的时间段,将其裁剪分割为单个320×240的短视频。②数据标注。根据筛选出的短视频,按照每秒30帧进行分割,生成jpg格式的帧图像,共计得到约75400张帧图像;然后,对所得的帧图像按照七个类别进行行为标注,标注框为矩形框,部分标注帧图像如图3所示,即每张帧图片用矩形框标注学生所在空间信息,矩形的左上角标注为该学生的行为类别,其中writing表示书写、stand表示站立、sleeping表示睡觉、attend_a_lecture表示听课、open_the_book表示翻书、playing_phone表示玩手机、glance_right_and_left表示左顾右盼。最后,导出的数据标签文件以json文件进行保存,数据标签文件由图像文件信息、标注框坐标信息和所对应的标签组成。


2.实验环境


①硬件环境配置:本次实验的主要设备配置为GeForce RTX 3080(GPU)10G显存和i9-10920X(CPU)。②软件环境配置:本次实验所用的编程语言为Python,使用的框架为PyTorch。


3.实验步骤


本实验的具体步骤为:①录制学生在真实课堂中的学习行为视频,采集学生的课堂行为视频。②将采集的视频长、宽统一裁剪为320px×240px,每秒钟按照30帧均匀划分生成jpg格式的图像帧并进行标注。③加载COCO数据集上训练的Darknet-19模型参数作为2D分支的预训练模型,Kinetics数据集上训练的3D-ResNext-101模型参数作为3D分支的预训练模型。④将已标注的实验数据随机分割成训练集、验证集和测试集,比例近似为3:1:1 ;将其中的训练集和验证集输入YOWO模型进行精调,其中使用具有动量和权值衰减策略的小批量随机梯度下降算法优化损失函数。⑤将测试集输入已训练好的YOWO模型,评估其算法性能。本研究以行为的分类准确率为评价标准,同时也能获得该类别的置信度及其目标学生的坐标信息。



4

实验结果与分析


基于YOWO的课堂学习行为实时识别


在相同的实验环境和超参数情况下,本研究分别对比YOWO模型、基于图片数据集的VGG16网络模型、基于视频数据集的YOLO-V2网络模型在学生课堂行为视频数据集上的准确率,实验结果如表2所示。


表2  不同网络模型下学习行为结果的准确率对比


由表2的实验结果可知,站立行为是从坐到站的一个连续性过程,而VGG16、YOLO-V2忽略了学习行为的时序性,不能准确识别学生的课堂行为,因此在该性能上表现不佳;在实际的采集过程中,左顾右盼行为不可能持续发生,当学生的头部偏转到一定角度时,其角度不再会发生移动,所以较为复杂的YOLO-V2网络模型的性能会高于VGG16网络模型、低于YOWO模型。总的来说,VGG16网络模型适用于原作者构建的、标准简单的学生行为图片数据集,而不太适用于较为复杂的场景;YOLO-V2网络模型虽然基于视频数据集检测,但该模型主要分析单张帧图片,没有很好地利用视频相邻帧之间的时序性,故总体性能不佳;本研究迁移的YOWO模型充分利用了视频相邻帧之间的时序性,该模型识别七个学习行为的平均准确率为91.1%,适用于分析较为复杂的真实课堂场景,尤其适用于识别具有明显时序性的左顾右盼与站立两个学习行为。但考虑到YOWO模型不能同时准确识别一个视频中多个学生的行为,在实际应用过程中可以将视频中多个学生的视频先分割成单人视频后再进行识别。图4为课堂中某一时刻学生行为的实时识别,可以看出:分割成单人视频后再进行识别的YOWO模型可有效排除学生课上的着装、小部分遮挡、教室背景等无关因素的影响,成功识别出玩手机6人、睡觉3人、翻书1人,说明该时间段的学生大部分脱离学习状态,由此可以推断该时间段为休息时间;而根据当时上课教师的反馈,该时间段的确属于休息时间。可见,可以采用YOWO模型自动识别学生的课堂学习行为。


图4  课堂中某一时刻学生行为的实时识别



5

总结


基于YOWO的课堂学习行为实时识别

本研究基于YOWO模型实时识别学生的课堂行为,不仅考虑了行为的时序性,而且能在自主构建的学生课堂行为数据中识别七种学生典型的课堂行为。此外,通过对比其他课堂学生行为识别论文中的相关算法,本研究验证了YOWO模型对于课堂这一场景下学习行为识别的有效性:其平均识别准确率达到了91.1%,同时在真实课堂场景下学生课上的着装、小部分遮挡、教室背景等无关因素的干扰下,依然有较好的识别效果。在实践中,通过YOWO模型自动实时识别某一时刻单个学生的典型课堂学习行为,并分析其在该时刻的学习专注度,进而统计整个课堂学生在该时刻的学习专注度,教师便可以及时了解学生学习的整体情况,这为进一步改善课堂教学策略提供了参考依据,有助于提高课堂教与学的效率。后续研究可以扩大数据的多样性,如丰富学生的学习行为种类、增加同一行为的不同学生数量,以进一步提高识别的准确率;也可以修改相应的算法来研究学生的课堂学习行为,以更好地推动自动化实时分析课堂教学信息,进而优化课堂教学策略。


参考文献:

[1]中国教育报.人工智能来了,教育当未雨绸缪[OL].

[2]Köpüklü O, Wei X, Rigoll G. You only watch once: A unified CNN architecture for real-time spatiotemporal action localization[OL].

[3]Flanders N A. Analyzing teacher behavior[M]. Massachusetts: Addison-Wesley, 1970:107.

[4]顾小清,王炜.支持教师专业发展的课堂分析技术新探索[J].中国电化教育,2004,(7):18-21.

[5]Zhang Y, Qiu C Z, Zhong N, et al. AI education based on evaluating concentration of students in class: Using machine vision to recognize students' classroom behavior[A]. 2021 The 5th International Conference on Video and Image Processing[C]. NY: Association for Computing Machinery,2021:126-133.

[6]蒋沁沂,张译文,谭思琪,等.基于残差网络的学生课堂行为识别[J].现代计算机,2019,(20):23-27.

[7]魏艳涛,秦道影,胡佳敏,等.基于深度学习的学生课堂行为识别[J].现代教育技术,2019,(7):87-91.

[8]何秀玲,杨凡,陈增照,等.基于人体骨架和深度学习的学生课堂行为识别[J].现代教育技术,2020,(11):105-112.

[9]徐家臻,邓伟,魏艳涛.基于人体骨架信息提取的学生课堂行为自动识别[J].现代教育技术,2020,(5):108-113.

[10]刘新运,叶时平,张登辉.改进的多目标回归学生课堂行为检测方法[J].计算机工程与设计,2020,(9):2684-2689.

[11]谭斌,杨书焓.基于Faster R-CNN的学生课堂行为检测算法研究[J].现代计算机(专业版),2018,(33):45-47.

[12]廖鹏,刘宸铭,苏航,等.基于深度学习的学生课堂异常行为检测与分析系统[J].电子世界,2018,(8):97-98.

[13]Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[A]. Proceedings of the 27th International Conference on Neural Information Processing Systems[C]. Cambridge: MIT Press, 2014:568-576.

[14]Tu Z, Xie W, Qin Q, et al. Multi-stream CNN: Learning representations based on human-related regions for action recognition[J]. Pattern Recognition, 2018,79:32-43.

[15]Tu Z, Xie W, Dauwels J, et al. Semantic cues enhanced multimodality multistream CNN for action recognition[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2019,(5):1423-1437.

[16]Tu Z, Xie W, Zhang D, et al. A survey of variational and CNN-based optical flow techniques[J]. Signal Processing-Image Communication, 2019,72:9-24.

本期编辑 | 菖蒲转载自:《现代教育技术》
排版、插图来自公众号:MOOC(微信号:openonline)

扫码即可申请加入在线教育交流群


更多资讯

【MOOC透视】无处办公:重塑工作与工作场所之未来

【MOOC透视】这里有招儿能把视频从在线学习的“恶棍”声名中解救出来……

【MOOC透视】科幻作品之于教育的意义

【MOOC透视】“学习”和“在线”,确实是这个时代每个人生活的标志性状态

【MOOC透视】掌握这组数字孪生术语,你确实知道的有点太多了......

【MOOC透视】在全球大规模在线教学实验和元宇宙想象之间:再谈教育数字化转型

【MOOC透视】儿童的元宇宙教育需尽快提上日程

【MOOC透视】在第300级台阶上的反思与展望:一个可释放数字化学习效能的“互联网÷”时代的正在由室联网元宇宙进行重构...
【MOOC透视】在第200级台阶上的反思与展望
【MOOC透视】在第100级台阶上的反思与展望
《室联网元宇宙de前世与今生》喧嚣时代的持之以恒...
【MOOC透视】Metaversity:元宇宙中将迎来第一批大学……
【MOOC透视】助力“双减”,室联网能做什么?
【MOOC透视】我们是否准备好了在不久的将来迎接两个不同的“自己”?
【MOOC透视】事当做后方知难:终于完成了一件极其考验耐心的工作!
【透视纸笔与文化基因】之十一:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之十:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之九:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之八:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之七:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之六:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之五:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之四:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之三:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之二:为何数字阅读仍不能替代纸质阅读?敬请继续关注实验数据揭示的真相!
【透视纸笔与文化基因】之一:为何数字阅读仍不能替代纸质阅读?详尽的实验数据给出了出人意料的答案!
【室联网透视】乡村振兴需要新的智慧驿站地标
【元宇宙漫谈之一】宇宙的元是什么?
【元宇宙DIY】供销室联网学习驿站建设全面启动,多种职位虚席以待,为优秀的您提供施展的舞台!
【室联网元宇宙】虎年的元宇宙是虎还是猫?
【MOOC透视】人类以算法塑造AI,AI就回报人类什么?
【MOOC透视】这样的元宇宙项目有望进入奥运会
【MOOC透视】这些产品与技术或将塑造未来几年的产业与生活面貌
【慕客茶会】心怀祈愿,迎向新年的曙光!
【MOOC透视】进入元宇宙的通行证----虚拟化身
【MOOC透视】高等教育领域的技术趋势:元宇宙、NFT和DAO
【MOOC透视】教育技术能帮助解决这类普遍问题吗?
CIBN/CCTV 特别节目预告 | 王涛:连接未来的光亮
【MOOC透视】奇迹宛若种子萌芽,学习亦如是
【慕客茶会】这是我向往的“元宇宙”,一踏进即有美好降临
《室联网de前世与今生》喧嚣时代的持之以恒...
【MOOC透视】这桩被称为“将改变在线教育未来格局”的强强联合,了解一下……
【MOOC透视】你所期望于教育的,不必等元宇宙来实现
【MOOC透视】元宇宙仍属于单纯的大型科技公司,只不过更大而已
【MOOC透视】快看,这里是元宇宙
【MOOC透视】让元宇宙再飞一会儿...
【MOOC透视】室联网智慧教育正迎来RISC-V软硬结合的黄金时代
【MOOC透视】特斯拉,“权力游戏”和在线教育的未来
【MOOC透视】手机被禁止进入课堂,就意味着教育信息化的最后一步无解吗?

【MOOC透视】远程学习正颠覆高等教育的力量和特权

【MOOC透视】收获季节的思考与邀请
【MOOC透视】这种课堂,是进化or 退化?
【MOOC透视】室联网的教育版产业互联网属性

【MOOC透视】大学究竟需要哪些技术来支持学生的学习?

【MOOC透视】下一个发展热点和机遇富矿:教育+农业

【MOOC透视】未来教育新型基础设施的表现形态将是室联网

【MOOC透视】这里的广阔新天地是可以大有作为的!

【MOOC透视】“室联网”被认证为中国行业影响力品牌!

《在线学习》杂志:教育信息化应走产业互联网之路

王涛:《现代教育报》打造未来教育教学的“蝶变场”

【室联课堂】提醒家长:当心你的孩子可能已经在通往抑郁症的路上...

【慕客茶会】面向无限,开放生长

【MOOC透视】互联网的熵增与室联网的熵减

【MOOC透视】在线教育中的身心健康问题

【MOOC透视】基于OMO的新教育基础设施是高等教育未来发展的关键

【MOOC】“大写”的黑板

【MOOC】关于室联网的FAQ(上篇)

【MOOC】关于室联网的FAQ(下篇)

【MOOC透视】室联网体系如何推动教育领域完成数字化转型?

【MOOC透视】新教育基础设施支撑下未来教育的根本特征

【MOOC透视】疫情催生的教育“新常态”与人类生存的“新常态”

【MOOC透视】在这一波次的世界教育变革中,中国会成为那个领跑者吗?

【MOOC透视】室联网:未来教育的新基础设施

【学习强国】室联网“智慧教室”:打造全新教育生态

中国教育报:“室联网”教育新概念融入智能教室

王涛:“室联网”是未来教育与教育数字转型的蝶变场

王涛:从黑板时代到超级屏时代的教育推手

教育信息化规划建设中的“伪需求”辨析系列文章汇编

教育技术发展的新趋势:学习环境设计与室联网的崛起

【MOOC透视】基于室联网场景回归的混合教学模式走在国际前列了……

【MOOC透视】“室联网”已不再是个单纯的理论概念

【MOOC透视】室联网,也许是你与教育的新联接方式

【MOOC透视】首次亮相:今年,这个词儿可能会叫响……

【每日半刻™】隆重上线:古朴又全新的高效学习、幸福生活模式,【每日半刻™】在线写心!

【每日半刻™】之党建篇:传统又创新的党员学习模式,【每日半刻™】邀您在线写心,一起守住初心!


产权及免责声明本文系“MOOC”公号转载、编辑的文章,编辑后增加的插图均来自于互联网,对文中观点保持中立,对所包含内容的准确性、可靠性或者完整性不提供任何明示或暗示的保证,不对文章观点负责,仅作分享之用,文章版权及插图属于原作者。如果分享内容侵犯您的版权或者非授权发布,请及时与我们联系,我们会及时内审核处理。


了解在线教育,
把握MOOC国际发展前沿,请关注:

微信公号:openonline
公号昵称:MOOC

  

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存